搜索资源列表
previnstance
- 一个好好好用的软件!! .禁用外设,加速启动 在WinXP中暂时禁用一些外设,可以有效地减少系统启动时需要调入的外设驱动程序数量,从而加快系统的启动速度,因为WinXP在启动时会自动扫描硬件的变化。首先打开该设备的电源,然后打开“设备管理器”窗口,单击工具栏中的“扫描硬件改动”按钮,或者直接用鼠标右键单击已禁用的设备,在弹出的快捷菜单中选择“启用”即可。 2.用软件,让WinXP启动如飞 微软提供了一个专用来加速WinXP启动的补丁程序──BootVis,
webdis
- 能够提炼网页的各种连接,并显示各个连接,也可以去连接-to extract web connections, and displayed on each link can also connect to
CMSware
- CMSware在线解压V1.1 1,提供者 CMSware在线解压由内容管理系统(CMS) 提供商信加科技CMSware团队(cmsware.com)荣誉奉献 2,授权协议 由于程序所使用的pclzlib库遵循GNU LGPL协议发布,因而本程序也遵循 GNU LGPL协议 3,运行环境 程序运行需要php支持Session和zlib扩展 4,管理登陆 将程序上传到web服务器,第一次运行时将会要求设定管理员账号、密码,以后用此次的设定登录 5, 程
dongtaiwangye
- 解压缩密码是www.cnzz.cn,是一个用asp 开发的动态网站,带有sql数据库,感兴趣的朋友可以看一下,多提意见,共同提高^_^-extract passwords are www.cnzz.cn is asp development with a dynamic web site, with sql database, interested friends can look at the criticism and enhancing ^ _ ^
ajaxcd20060404
- tomcat 详细方法请见http://www.webplat.cn的技术文档. 2.将解压后的文件夹拷至%tomcat_home%/webapps/Root下,文件夹下有index.jsp文件 3.在mysql环境中将src文件夹下jspshop.sql执行生成数据库 4.按照系统环境修改build.bat文件以及src中.java文件。 其中build.bat中修改tomcat和jdk的安装路径 其中.java文件修改数据库的地址、登陆用户名和密码 5.命令
亿博网上购物系统 v4.3
- 1、下载亿博购物系统 亿博购物系统每次发布最新版本,都会第一时间公布于亿博网站上(www.075518.com) 2、解压亿博购物系统压缩包 将下载回的亿博购物系统解压到指定的目录 3、安装亿博购物系统 1) 在本地安装亿博购物系统执行本操作前请确认您拥有程序说明中所需要的环境 在确认您有运行亿博购物系统的环境后,您需要做以下工作: 将解压后的文件拷贝到本地WEB目录中,IIS或者PWS默认Web目录为C:\\inetpub\\wwwroot,比
alexa
- 欢迎使用 alexa世界排名快速增长器3.0 解压缩:到目录 上传到服务器上即可立即运行. 如:http://../alexa/即可立即运行. 演示:http://www.fyasp.com/pm/ 主页:http://www.fyasp.com global.asa放在网站跟目录下 alexa作弊网页程序 在线刷新 输入网址即可 -welcomed the use of rapid growth in the world ranki
FVML3.0
- 本压缩包共包含: VML极道教程 - 最好的VML教程 FlashVml(闪耀之星)3.0 中文版、英文版 - 最强的VML开发工具 推荐解压、浏览方式: 建议解压缩至D或E盘任意位置(防止常重装系统的用户丢失) index.htm文件即是《VML极道教程》的核心阅读器,建议复制快捷方式到桌面 vmljdjc目录里包含了《VML极道教程》所有的文章内容文件、示例文件、flashvml3.0中英文版 建议打开vmljdjc目录,为flashvml3.h
02100813320
- 提取网页内容,去掉标签,去掉无用链接,主要服务于自然语言处理中对网页内容要求的应用。 -extract the content of the sites and remove labels, eliminating useless links, major service on natural language processing of web content requirements of the application.
CodeNet
- 网络的相关知识,网络程序的编写,Socket是连接应用程序与网络驱动程序的桥梁,Socket在应用程序中创建,通过bind与驱动程序建立关系。此后,应用程序送给Socket的数据,由Socket交给驱动程序向网络上发送出去。计算机从网络上收到与该Socket绑定的IP+Port相关的数据后,由驱动程序交给Socket,应用程序便可从该Socket中提取接收到的数据。网络应用程序就是这样通过socket进行数据的发送与接收的。TCP与UDP的工作原理与编写过程,如何在程序中链接库文件。一个字符界面
notbook
- 1.服务器装有jdk和resin服务器等 2.安装完JSDK后,配置下面的内容: 在系统变量中找到ClassPath并加入下面内容(如果你找不到ClassPath,则新建它): c:\\jsdk\\LIB\\dt.JAR c:\\jsdk\\LIB\\TOOLS.JAR c:\\jsdk\\BIN . 再在系统变量中找到Path并加入下面内容: c:\\jsdk\\ c:\\jsdk\\bin 3.直接解压resin就可以运行把程序放在doc目录下面把cl
soso
- 过程序自动的读取其它网站网页显示的信息,类似于爬虫程序。比方说我们有一个系统,要提取BaiDu网站上歌曲搜索排名。分析系统在根据得到的数据进行数据分析。为业务提供参考数据。-process is automatically read the other web pages of information revealed similar to the reptile procedures. For example, we have a system, to extract songs portal
relink
- MFC IIS防盗链 开发环境 vc++ 7.0(MFC) / windows 2003 sp1 / iis6.1 主要功能: 1 防盗链 2 限制文件下载线程数 3 限制文件下载速度 使用方法: 1 打开Internet 信息服务(IIS)管理器/本地计算机/网站/默认网站/属性/ISAPI筛选器/添加 2 名称随便 文件 选择你解压缩下来的relink.dll 3 重启IIS 4 打开ReLink.ini 具体参数: [settings
SubjectSpider_ByKelvenJU
- 1、锁定某个主题抓取; 2、能够产生日志文本文件,格式为:时间戳(timestamp)、URL; 3、抓取某一URL时最多允许建立2个连接(注意:本地作网页解析的线程数则不限) 4、遵守文明蜘蛛规则:必须分析robots.txt文件和meta tag有无限制;一个线程抓完一个网页后要sleep 2秒钟; 5、能对HTML网页进行解析,提取出链接URL,能判别提取的URL是否已处理过,不重复解析已crawl过的网页; 6、能够对spider/crawler程序的一些基本参数进行
webqiyewang
- 没有解压密码,大家来看看,这个网站代码的设计思想很不错,是一个企业网站,请大家欣赏参考,谢谢~!-not extract passwords, we look at the code of the site design is very good, is a corporate Web site, please appreciate the reference, thank you ~!
netvideo.rar
- 程序包括一个server 和一个client 他们可以在局域网内通过USB摄像头采集 图像,并经过jpeg压缩,然后通过网络传送到 client端,client端再解压并显示图像 程序运行前先设定好ip地址,可以看程序里面的设定ip,然后修改,This process includes a server and a client that they can in the LAN through the USB camera capture images, and after jpeg
GZipforhttp.rar
- 在网页下载器中,时常需到Content-Encoding: gzip压缩的页面,本源代码能解压这样的网页,不过,由于web服务器压缩gzip后的数据并不完全相同,所以你还需要对数据头进行一些处理,自己去看firefox源代码是怎么处理的吧,Download a web page browser, often need to Content-Encoding: gzip compressed page, source code to extract this kind of web pages,
Crawler
- 该源码是用python写的一个简单的网络爬虫,用来爬取百度百科上面的人物的网页,并能够提取出网页中的人物的照片-The source code is written in a simple python web crawler, Baidu Encyclopedia is used to crawl the page above figures, and be able to extract the characters in the picture page
HTTP
- VC抓取网页内容,并下载保存至本地服务器,利用正则表达式提取并上传至数据库-VC crawl web content, and download and save to the local server, use regular expressions to extract and upload to the database
FindTheTruth
- web crawler, I used for extract websites database like movie stores, gets video url, descr iption, covers etc.